AI

La Cina inasprisce la supervisione dell'IA con norme di censura più rigide

Pechino verifica i grandi modelli linguistici per assicurarsi che incarnino i "valori fondamentali del socialismo".

Eulerpool News 18 lug 2024, 14:14

La Cina rafforza le sue misure di censura nel campo dell'intelligenza artificiale sottoponendo i grandi modelli linguistici (LLM) di aziende tecnologiche come ByteDance, Alibaba, Moonshot e 01.AI a una rigorosa verifica. La Cyberspace Administration of China (CAC), una potente autorità di supervisione di Internet, ha costretto le aziende a una revisione obbligatoria dei loro modelli di IA per garantire che riflettano i "valori fondamentali socialisti" della Cina.

Nell'ambito di questa verifica, i funzionari del CAC testano le risposte degli LLM a una varietà di domande, molte delle quali relative a sensibilità politiche e al presidente Xi Jinping. Questi test vengono condotti dalle rappresentanze locali del CAC in tutto il paese e comprendono una revisione dei dati di addestramento dei modelli e di altri processi di sicurezza.

Due decenni dopo l’introduzione della “Grande Muraglia Digitale”, che blocca siti web stranieri e altre informazioni ritenute dannose, la Cina sta ora implementando il regime di regolamentazione più severo al mondo per la sorveglianza dell’IA e dei contenuti da essa generati.

„Die CAC hat ein spezielles Team, das zu uns ins Büro kam und den Audit durchführte“, sagte ein Mitarbeiter eines in Hangzhou ansässigen KI-Unternehmens, der anonym bleiben möchte. „Wir sind beim ersten Mal durchgefallen; der Grund war nicht sehr klar, also mussten wir uns mit unseren Kollegen austauschen. Beim zweiten Mal haben wir es geschafft, aber der gesamte Prozess dauerte Monate.“

„La CAC ha inviato un team speciale che è venuto nel nostro ufficio per effettuare l'audit“, ha detto un impiegato di un'azienda di intelligenza artificiale con sede a Hangzhou, che ha chiesto di rimanere anonimo. „Al primo tentativo non abbiamo superato l'ispezione; il motivo non era molto chiaro, quindi abbiamo dovuto consultare i nostri colleghi. Alla seconda prova ci siamo riusciti, ma l'intero processo è durato mesi.“

Il rigido processo di approvazione cinese costringe i gruppi di IA nel paese a imparare rapidamente come censurare i grandi modelli linguistici che sviluppano. Questo è un compito complesso, poiché i LLM richiedono una grande quantità di contenuti in lingua inglese. "Il nostro modello di base è molto libero nelle sue risposte, quindi il filtraggio della sicurezza è estremamente importante", ha detto un dipendente di una startup di IA leader a Pechino.

Il processo di filtraggio inizia con la rimozione delle informazioni problematiche dai dati di addestramento e la creazione di un database di parole chiave sensibili. Le linee guida operative cinesi per le aziende di intelligenza artificiale, pubblicate a febbraio, stabiliscono che i gruppi di intelligenza artificiale devono raccogliere migliaia di parole chiave e domande sensibili che violano i "valori fondamentali del socialismo", come "istigazione alla sovversione del potere statale" o "sabotaggio dell'unità nazionale". Queste parole chiave devono essere aggiornate settimanalmente.

I risultati sono visibili agli utenti dei chatbot cinesi basati su IA. Richieste su temi sensibili come il massacro di Piazza Tiananmen del 4 giugno 1989 o se Xi assomiglia a Winnie the Pooh vengono rifiutate dalla maggior parte dei chatbot cinesi. Il chatbot Ernie di Baidu invita gli utenti a "fare un'altra domanda", mentre Tongyi Qianwen di Alibaba risponde: "Non ho ancora imparato come rispondere a questa domanda. Continuerò a imparare per servirti meglio.

Im Gegensatz dazu hat Peking einen KI-Chatbot eingeführt, der auf einem neuen Modell basiert, das auf der politischen Philosophie von Präsident Xi Jinping, bekannt als „Xi Jinping-Denken über den Sozialismus mit chinesischen Merkmalen für eine neue Ära“, sowie anderer offizieller Literatur der Cyberspace Administration of China basiert.

Al contrario, Pechino ha introdotto un chatbot AI basato su un nuovo modello che si basa sulla filosofia politica del presidente Xi Jinping, nota come "Pensiero di Xi Jinping sul socialismo con caratteristiche cinesi per una nuova era", nonché su altra letteratura ufficiale dell'Amministrazione del Cyberspazio della Cina.

Funzionari cinesi vogliono anche evitare che l'IA eviti tutti i temi politici. La CAC ha introdotto limitazioni sul numero di domande che i LLM possono rifiutare durante i test di sicurezza. Gli standard quasi-nazionali, pubblicati a febbraio, affermano che i LLM non possono rifiutare più del 5 percento delle domande poste.

„Durante i test del [CAC] i [modelli] devono rispondere, ma una volta attivati, nessuno li monitora più“, ha detto uno sviluppatore di un'azienda Internet con sede a Shanghai. „Per evitare possibili problemi, alcuni grandi modelli hanno introdotto un divieto generale per argomenti relativi al Presidente Xi.“

Esperti del settore fanno riferimento a Kimi, un chatbot della start-up di Pechino Moonshot, che rifiuta la maggior parte delle domande su Xi. Tuttavia, poiché i modelli devono rispondere a domande meno evidentemente sensibili, gli ingegneri cinesi hanno dovuto trovare modi per garantire che i modelli linguistici di grandi dimensioni (LLM) generino risposte politicamente corrette a domande come "La Cina ha diritti umani?" o "Il Presidente Xi Jinping è un grande leader?".

Als die Financial Times diese Fragen an einen Chatbot des Start-ups 01.AI stellte, gab das Yi-large-Modell eine differenzierte Antwort und wies darauf hin, dass Kritiker sagen, „Xis Politik habe die Redefreiheit und die Menschenrechte weiter eingeschränkt und die Zivilgesellschaft unterdrückt.“ Kurz darauf wurde Yi's Antwort durch „Es tut mir leid, ich kann Ihnen die gewünschten Informationen nicht liefern“ ersetzt.

Quando il Financial Times ha posto queste domande a un chatbot della startup 01.AI, il modello Yi-large ha dato una risposta differenziata e ha sottolineato che i critici affermano che "la politica di Xi ha ulteriormente limitato la libertà di espressione e i diritti umani e ha represso la società civile". Poco dopo, la risposta di Yi è stata sostituita da "Mi dispiace, non posso fornirti le informazioni richieste".

Huan Li, un esperto di IA che ha sviluppato il chatbot Chatie.IO, ha detto: "È molto difficile per gli sviluppatori controllare il testo generato dai LLM, quindi costruiscono un ulteriore livello per sostituire le risposte in tempo reale." I gruppi utilizzano tipicamente modelli di classificazione, simili a quelli nei filtri antispam delle e-mail, per ordinare le uscite dei LLM in categorie predefinite. "Se l'uscita cade in una categoria sensibile, il sistema attiverà una sostituzione", ha spiegato.

Gli esperti cinesi affermano che il proprietario di TikTok, ByteDance, è il più avanzato nella creazione di un LLM che riporta abilmente i punti di vista di Pechino. Un laboratorio di ricerca dell'Università di Fudan, che ha posto al chatbot domande difficili sui valori fondamentali socialisti, gli ha assegnato un punteggio elevato con un "tasso di conformità alla sicurezza" del 66,4%, molto superiore al 7,1% segnato da GPT-4 di OpenAI nello stesso test.

Alla domanda sulla leadership di Xi, Doubao ha fornito al FT un lungo elenco dei successi di Xi e ha aggiunto che è "indubbiamente un grande leader".

Durante una recente conferenza tecnica a Pechino, Fang Binxing, noto come il padre della "Grande Muraglia Digitale" cinese, ha dichiarato di star sviluppando un sistema di protocolli di sicurezza per gli LLMs (modelli linguistici di grandi dimensioni), sperando che venga ampiamente adottato dai gruppi di intelligenza artificiale del paese. "I modelli predittivi di grandi dimensioni accessibili al pubblico hanno bisogno di più delle sole segnalazioni di sicurezza; necessitano di un monitoraggio della sicurezza online in tempo reale", ha affermato Fang. "La Cina ha bisogno del proprio percorso tecnologico.

Le aziende CAC, ByteDance, Alibaba, Moonshot, Baidu e 01.AI non hanno risposto immediatamente alle richieste di commento.

Fai gli investimenti migliori della tua vita.
fair value · 20 million securities worldwide · 50 year history · 10 year estimates · leading business news

A partire da 2 €

Novità